Loading...
机构名称:
¥ 1.0

摘要。机器学习(ML)和算法信息理论(AIT)从不同的角度探讨了复杂性。我们通过通过稀疏内核流的方法对学习内核,内核岭回归中学习核的问题,在数据中学习核的问题,探索AIT和内核方法之间的接口(在ML中普遍存在)。特别是,通过查看最小描述长度(MDL)和机器学习(RML)的正则化之间的差异和共同点,我们证明稀疏核流的方法是采用自然的方法,可以从数据中学习内核。这种方法与MDL原理保持一致,比现有对交叉验证的依赖更加强大的理论基础。该研究表明,得出稀疏的内核流不需要统计方法。取而代之的是,人们可以直接参与代码长度和复杂性,这是AIT中心的概念。因此,这种方法为使用AIT的工具重新制定机器学习算法打开了大门,目的是为它们提供更扎实的理论基础。

arxiv:2311.12624v3 [cs.lg] 2024年4月10日

arxiv:2311.12624v3 [cs.lg] 2024年4月10日PDF文件第1页

arxiv:2311.12624v3 [cs.lg] 2024年4月10日PDF文件第2页

arxiv:2311.12624v3 [cs.lg] 2024年4月10日PDF文件第3页

arxiv:2311.12624v3 [cs.lg] 2024年4月10日PDF文件第4页

arxiv:2311.12624v3 [cs.lg] 2024年4月10日PDF文件第5页

相关文件推荐

2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥6.0
2024 年
¥1.0
2024 年
¥1.0
2025 年
¥1.0
2024 年
¥1.0